-
Notifications
You must be signed in to change notification settings - Fork 284
recipes_source/torch_compile_caching_tutorial.rst 번역 #1039
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
recipes_source/torch_compile_caching_tutorial.rst 번역 #1039
Conversation
|
그리고 80번 줄에 |
넵 확인 더 해보고 리뷰 주신거 바탕으로 다시 수정해보겠습니다. |
minyeamer
left a comment
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
- 42번째 라인에서 번역된 "엔드 투 엔드 캐싱" 단어가 33, 39번째 라인에서는 원문인 "end to end caching" 으로 번역되지 않았는데 한글로 통일하는게 나아보여요.
- 71번째 라인에서 "기록할(logging)할" 이라고 번역되었는데 오타 같아요.
hyoyoung
left a comment
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
긴 문서 번역하느라 수고하셨습니다
코멘트 확인 부탁드립니다
| **Author:** `Oguz Ulgen <https://github.com/oulgen>`_ | ||
|
|
||
| **저자** `Oguz Ulgen <https://github.com/oulgen>`_ | ||
| **번역** `김영준 <https://github.com/YoungyoungJ>`_ |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
사소한 것이지만 저자 뒤에 :가 있습니다
가급적 원본과 비슷하게 맞춰주세요
|
|
||
| It is important to note that caching validates that the cache artifacts are used with the same PyTorch and Triton version, as well as, same GPU when device is set to be cuda. | ||
| 캐시가 올바르게 동작하기 위해서는 캐시 아티팩트가 동일한 PyTorch 및 Triton 버전에서 생성된 것이어야 하며, | ||
| 디바이스가 CUDA로 설정된 경우에는 같은 GPU 환경에서 사용되어야 한다는 점에 유의해야 합니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
같은 GPU 환경보다는 같은 GPU라고 하는게 더 명확한 표현일거 같습니다
| 디바이스가 CUDA로 설정된 경우에는 같은 GPU 환경에서 사용되어야 한다는 점에 유의해야 합니다. | ||
|
|
||
| ``torch.compile`` end-to-end caching (``Mega-Cache``) | ||
| ``torch.compile`` 엔드 투 엔드 캐싱 (``Mega-Cache``) |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
end-to-end는 하나의 단어처럼 사용됨을 고려해서 엔드투엔드로 쓰는게 어떨까요?
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
넵 알려주셔서 감사합니다! 리뷰해주신 거 바탕으로 수정하고 더 학습해보겠습니다!
hyoyoung
left a comment
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
사소한 수정 추가 부탁드립니다
| ------------------------------------------------------------ | ||
|
|
||
| End to end caching, from here onwards referred to ``Mega-Cache``, is the ideal solution for users looking for a portable caching solution that can be stored in a database and can later be fetched possibly on a separate machine. | ||
| ``Mega-Cache``”로 지칭되는 엔드투엔드 캐싱은, 캐시 데이터를 데이터베이스에 저장해 다른 머신에서도 불러올 수 있는 이식 가능한(portable) 캐싱 솔루션을 찾는 사용자에게 이상적인 방법입니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
” 부호는 필요없을거 같습니다
| # 이제 artifact_bytes를 데이터베이스에 저장할 수도 있습니다. | ||
| # cache_info는 기록(logging)할 수 있습니다. | ||
| Later, you can jump-start the cache by the following: |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
이 부분이 번역 안된거 같습니다
| * ``InductorCache``: A bundle of ``FXGraphCache`` and ``Triton`` cache. | ||
| * ``AOTAutogradCache``: A cache of joint graph artifacts. | ||
| * ``PGO-cache``: A cache of dynamic shape decisions to reduce number of recompilations. | ||
| * ``FXGraphCache``: 파일 과정에서 사용되는 그래프 기반 중간 표현(IR, Intermediate Representation) 구성요소를 저장하는 캐시입니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
컴파일 과정인데 오타인거 같습니다
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
넵 알려주셔서 감사합니다! 수정 완료했습니다!
|
|
||
| Remote Caching | ||
| 원격 캐싱(Remote Caching) | ||
| ---------------- |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
---는 소제목을 나타내는 문법입니다
위의 소제목의 길이와 같거나 길어야합니다
hyoyoung
left a comment
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
LGTM
jih0-kim
left a comment
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
Good 👍
라이선스 동의
변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.
더 자세한 내용은 기여하기 문서를 참고해주세요.
동의하시면 아래
[ ]를[x]로 만들어주세요.관련 이슈 번호
이 Pull Request와 관련있는 이슈 번호를 적어주세요.
이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )
PR 종류
이 PR에 해당되는 종류 앞의
[ ]을[x]로 변경해주세요.PR 설명
이 PR로 무엇이 달라지는지 대략적으로 알려주세요.
recipes_source/torch_compile_caching_tutorial.rst 이 문서 번역했습니다.